害怕AI智能叛變 Google DeepMind設專責小組研道德問題
發布時間: 2017/10/06 16:51
最後更新: 2017/10/06 17:15
不少AI專家曾警告,人工智能(AI)發展太快,人類未必可以控制一切。早前Tesla創辦人馬斯克(Elon Musk)、Google DeepMind聯合創辦人Mustafa Suleyman等116名專家曾向聯合國發公開信,要求全面禁止AI開發殺人武器。
據英國衛報(The Guardian)報道,Google母公司Alphabet旗下的AI開發機構DeepMind,已決定成立專責小組,成員包括內部開發成員及各地專家,研究AI為人類帶來的倫理與社會問題,以及協助將AI用於正途上。
專責小組名為DeepMind Ethics & Society(DMES),目前有8名職員,預計一年內增至25名。小組會定期就AI所引起的私隱、濫用、道德等範疇進行研究報告。
事實上,法律界已開始討論AI引致的法律權責問題,現時未有法例規管AI行為。例如使用AI的自動駕駛系統,若發生交通意外,需負上刑責的人會是駕駛者還是製造者?
若AI聊天機器人(Chatbox)對使用者進行性騷擾;又或是於招聘過程中加入AI,皆因AI是按收到的數據進行分析及決定。若企業有意輸入偏頗資料,如黑人犯罪錄高等資料,讓AI按所輸入的資訊作出冒犯行為,又或是拒絕聘請某種族,公司是否要負上刑責等。有法律專家提倡將「法人」概念伸延至AI機器,但在法律界至今還未有明確定論。
【其他熱話】日本治愈系貓攬枕 掃下背識擺尾【有片】